العين الحادة (2): "جسور بوست" تكشف في تحقيق استقصائي كيف استخدمت إسرائيل تطبيقات الذكاء الاصطناعي للتزييف في الحرب على غزة؟
العين الحادة (2): "جسور بوست" تكشف في تحقيق استقصائي كيف استخدمت إسرائيل تطبيقات الذكاء الاصطناعي للتزييف في الحرب على غزة؟
تجربة عملية.. إنتاج فيديوهات وصور مزيفة لنتنياهو وأفيخاي باستخدام تطبيقات الذكاء الاصطناعي تطالب بالحرية لغزة
كيف يؤثر التلاعب بالصور والفيديوهات على الرأي العام والسياسي في المجتمعات المتأثرة؟
من وراء الكواليس.. تتبع استخدام إسرائيل تطبيقات الذكاء الاصطناعي في تزييف المحتوى خلال الحرب على غزة
غزة نموذجًا.. كيف تُستخدم تقنية التزييف العميق في الحروب؟
خداع إلكتروني.. تحويل أفيخاي أدرعي ونتنياهو إلى دعاة سلام
التزييف العميق.. سلاح خطير يهدد الاستقرار السياسي والعالمي
كيف تُمكننا التكنولوجيا من قلب الحقائق؟ تجربة عملية تُظهر مخاطر التزييف العميق
الصورة لم تعد دليلًا على الحقيقة.. تقنيات الذكاء الاصطناعي تُهدد مصداقية الإعلام
المعلومة تأتينا عبر منظومة متحكمة وحاكمة، لا يمكن فلسفتها بتاريخ بداية ونهاية صنع، نرفض تعليب الحقيقة، نرفض بكل ما أوتينا من حرف وصوت جميع المواد الحافظة، حقنا أن يأتينا الخبر بنكهة طبيعية لا تقبل التزييف.
هكذا أخبرتنا نور، فتاة فلسطينية ثلاثينية، عن رأيها في ما أسمته حرب المعلومات والصور والأكاذيب والتزييف العميق على غزة.
والتزييف العميق هو تقنية ذكاء اصطناعي متقدمة تُستخدم لإنشاء محتوى وسائط متعدد مزيف، ومن خلال تحسين تطبيقاته وتقنياته أصبح بإمكان أي شخص إنشاء صور وفيديوهات تبدو واقعية للغاية، على الأقل للوهلة الأولى. ولتحقيق هذا الإنجاز، يجب على المستخدم تزويد أدوات مثل "Midjourney" و"Dall-E" بالمعلومات والتوجيهات والخصائص اللازمة لتحويل الأفكار المكتوبة إلى صور قابلة للمشاهدة.
تضيف نور: نقطة البداية كانت وقت "طوفان الأقصى" وبدء القصف على غزة في أكتوبر الماضي، وتصف أهوال الحروب الحديثة بأنها أشكال جديدة ومختلفة، حيث ظهر العدو الخفي وراء الشاشات، يشكل خطرًا، ويهدد بتحويل الحقائق إلى أكاذيب والواقع إلى هشيم، عبر التزييف العميق ونشر صور تدعي قتل غزة للأطفال تبين في ما بعد أنها مصنوعة بواسطة الذكاء الاصطناعي.
أيّد حديث نور العديد من الوقائع والأخبار العالمية المتداولة لمثل هذه الصور، وهو ما استدعى قلق العالم البريطاني ديميس هاسابيس، المتخصص في مجال الذكاء الاصطناعي، ليطلق تحذيرا مدويا عبر "الجارديان" نصه: "علينا أن نتعامل مع مخاطر الذكاء الاصطناعي بالقدر نفسه من الجدية الذي نتعامل به مع أزمة المناخ".
وأضاف هاسابيس أن تلك التكنولوجيا الجديدة الفائقة لها وجه آخر مظلم يختلف عما نعرفه عنها، إذ بمقدورها أن تصبح أداة للقتل وأن تسهم في صنع الأسلحة البيولوجية، وفوق كل هذا يمكن استخدام قدراتها للتلاعب بالعقول وتوجيه الرأي العام من خلال تقنيات توليد المحتوى المكتوب والمرئي التي تستخدم وسيلة فعالة في "الحروب المعلوماتية".
ووفقًا لصحيفة "إيفنينغ ستاندرد" البريطانية، تمت دراسة جديدة تحلل نوعًا جديدًا من الأسلحة في الحرب الدعائية، يُعرف بـ"التزوير العميق"، وذلك من خلال تحليل نحو 5 آلاف تغريدة على موقع "إكس" (تويتر سابقًا) خلال الأشهر السبعة الأولى من عام 2022.
في التجربة، تم استخدام تقنية "التزوير العميق" لإنشاء محتوى مزيف يتعلق بحرب روسيا وأوكرانيا ونشره على موقع تويتر، وتضمن هذا المحتوى مقاطع فيديو مزيفة تم ترويجها على أنها مقاطع حقيقية من الصراع، باستخدام لقطات من ألعاب الفيديو وغيرها.
كشفت الدراسة أن استخدام "التزوير العميق" قد أدى إلى تقليل مستوى الثقة لدى المستخدمين في مقاطع الفيديو والصور المتعلقة بالحروب والنزاعات، بما في ذلك الأخبار المنشورة من قبل مؤسسات إعلامية موثوق بها، وتبين أن الأشخاص صاروا غير قادرين على تمييز المحتوى المزيف عن الأصلي.
وأظهرت الدراسة أن جهود رفع الوعي بشأن مقاطع الفيديو المزيفة أدت أيضًا إلى ضعف الثقة في مقاطع الفيديو الحقيقية؛ فأصبح الأشخاص غير قادرين على تمييز اللقطات المزيفة عن الأصلية.
وتحذر وكالة الشرطة الأوروبية (يوروبول) من استخدام متزايد لتقنية "التزوير العميق"، حيث يمكن استخدامها لإنشاء مقاطع فيديو مزيفة تجعل الأشخاص يظهرون وكأنهم يتحدثون أو يقومون بأفعال لم يقوموا بها في الواقع.
ووفقًا لدراسة بحثية نشرتها مجلة "العمارة والفنون والعلوم الإنسانية" بجامعة مصر الدولية، فإن خوارزميات التزييف العميق استفادت من قدرات يمتلكها الذكاء الاصطناعي ووظفتها في خدمة الحروب، لهذا باتت معادلات الحروب الرقمية خطراً يربك العالم بأسره.
يُشكِل ما سبق مع اتهامات نور ومخاوف العالم البريطاني ديميس خطورة تقتضي التقصي، فالإعلام مبني على الصورة في الأساس.
وعلى مدار القرنين الماضيين، كانت الصورة هي الوسيط الأكثر موثوقية لنقل أخبار الحروب، فقد تعرفنا على هول المعارك من الصور التي التقطها مصورو الحروب الأوائل، حينها اكتشفنا الموت من جديد منعكسا على ورق الفوتوغراف، وتأملنا من خلاله لا إنسانية الإنسان، كما يقول بيري ساندرز في كتابه "اختفاء الكائن البشري"، حتى بِتنا نثق بالصورة ونصدقها، حتى جاء عصر التزييف العميق.
ولذا يُمثل تحقيق "العين الحادة" صوتًا حيًا في تحليل وفحص الأحداث والمعلومات المتناقلة في الساحة الإعلامية، ومن خلال البحث والتقصي والاعتماد على المصادر المفتوحة والتجارب العملية يسعى إلى استكشاف وفحص ما إذا كانت تطبيقات الذكاء الاصطناعي تُستخدم في تزييف الفيديوهات والصور في سياق الحرب الأخيرة على غزة أم لا؟
كذلك قام التحقيق بتجربة عملية عبارة عن إنتاج فيديوهات وصور مزيفة باستخدام تطبيقات الذكاء الاصطناعي، لشخصيات إسرائيلية بارزة -مثل أفيخاي أدرعي وبنيامين نتنياهو- ينادون فيها بالحرية لغزة ووقف قتل الأطفال هناك، لتجسيد مدى سهولة إنتاج المحتوى المزيف وتأثيره على الرأي العام والسياسي والنفسي للمجتمعات المتأثرة.
"العين الحادة" سعى إلى كشف الحقائق وتقديم تحليلات دقيقة لتلك الظواهر، ما يسهم في توعية الجمهور ورفع مستوى الوعي بأخطار التلاعب الإعلامي وضرورة اليقظة والتحقق من المعلومات قبل الاعتماد عليها.

هل استخدمت إسرائيل التزييف العميق في الحرب على غزة؟
في عالم يزداد تعقيدًا، حيث تصبح المعلومات ساحة معركة كما الصواريخ والقنابل، يستخدم الذكاء الاصطناعي للتلاعب بالرأي العام.
وهنا ومن خلال المصادر المفتوحة، نحاول الإجابة عن تساؤلات حول حدود الحقيقة والخيال في ساحة الحرب الإسرائيلية على غزة الأخيرة، هل استخدمت إسرائيل التزييف العميق أم لا؟
بالبحث في مختلف وسائل الإعلام العالمية، وجدنا صوراً منتشرة، بعضها أظهر جنديا إسرائيليا كأنه أحد الأبطال الخارقين في أفلام هوليوود، يحمل بين يديه طفلين رضيعين زعم أنه أنقذهما من حماس بعدما اختطفهما مسلحو الحركة وأودعوهما داخل خزانة في قطاع غزة، ورغم الانتشار الواسع النطاق للصورة، تبين فيما بعد أنها مولدة بواسطة أدوات الذكاء الاصطناعي، بخلاف أن ذلك يظهر من النظرة الأولى للصورة، بسبب وجود يد ثالثة للجندي إلى جانب خطأ في العلم الإسرائيلي.
ما سبق تناوَله "الخبير الإعلامي الدكتور أليكس جيكر" في مقال تناقلته الصحف العالمية تحت عنوان This is probably the first AI war.
يقول جيكر في مقاله، في إشارة منه لتحيز شركة "ميتا" وشارحًا قصة صورة الجندي المزيفة بالذكاء الاصطناعي: "يمكنك إرسال منشورات إلى فسيبوك وما إلى ذلك، إذا كانت لصالح إسرائيل فإن جيشًا من الروبوتات سيولد لها ردود فعل إيجابية وإعجابات ومشاركات، وإذا كانت ضد ذلك فسوف تقوم الروبوتات بالإبلاغ عنها، لكن مجال الذكاء الاصطناعي لا ينتهي عند هذا الحد، هذا الأسبوع، شارك العديد من المستخدمين صورة لجندي في جيش الدفاع الإسرائيلي يُفترض أنه ينقذ طفلين اختطفتهما حماس وأخفتهما في خزانة في غزة، لكن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي، كما يتضح من صورة الجندي واليد الثالثة، والاستخدام الخاطئ للعلم الإسرائيلي".
وتزامنًا مع عملية "طوفان الأقصى"، نشرت "فرانس 24" أن المجتمع الدولي فوجئ بأخبار أطلقها مكتب رئيس الوزراء بنيامين نتنياهو عبر "X" (تويتر سابقًا) اتهمت أفراد حركة المقاومة الفلسطينية (حماس) بقطع رؤوس 40 رضيعًا تبين أنها مزيفة أُنشئت بواسطة تقنيات الذكاء الاصطناعي.

بدورها، نفت حماس الرواية الإسرائيلية، لكن تلك المعلومة انتشرت مثل النار في الهشيم وتداولتها وكالات الأنباء العالمية بوصفها حقيقة مؤكدة، خاصة بعدما أكدها الرئيس الأمريكي جو بايدن زاعما أنه رأى صور الرُّضع مقطوعي الرأس بنفسه، وهو التصريح الذي تراجع عنه البيت الأبيض بعدها نافيا رؤية أية صور.
وبحسب تقرير أصدره معهد الشرق الأوسط للتفاهم (Institute for middle east understanding)، وتحت عنوان " Fact Sheet: Israel’s History of Spreading Disinformation" يستعرض تاريخ إسرائيل في نشر المعلومات المضللة، تحدث أن إسرائيل لم تقدم أي دلائل تدعم صحة مزاعمها، رغم مرور أكثر من 20 يوما على بدء الحرب.

وكتب ما ترجمته: "ادعاءات لا أساس لها حول قطع رؤوس الأطفال، أكتوبر 2023 ادعى الجيش الإسرائيلي ومكتب رئيس الوزراء بنيامين نتنياهو أن مقاتلي حماس قطعوا رؤوس ما يصل إلى 40 طفلا خلال هجومهم في 7 أكتوبر على بلدة كفر عزة.. انتشرت هذه المزاعم التحريضية بسرعة وتكررت على نطاق واسع في وسائل الإعلام ومن قِبل الرئيس جو بايدن الذي ادعى كذبا خلال اجتماع مع زعماء يهود أنه رأى شخصيا صورا لأطفال مقطوعي الرؤوس، وهو ما تراجع عنه البيت الأبيض لاحقا، معترفا بأنه لم ير أي صور، وأن الولايات المتحدة لم تتحقق من هذا الادعاء، ومع ذلك، فإن الصحفيين الإسرائيليين الذين زاروا مكان عمليات قطع الرؤوس المزعومة لم يروا أي دليل يدعم هذا الادعاء ولم يذكره المسؤولون العسكريون الإسرائيليون المرافقون لهم، ورفض الجيش الإسرائيلي بعد ذلك تأكيد هذا الادعاء، وبعد أكثر من أسبوع لم يظهر أي دليل يدعمه".
كذلك استُخدمت صورة رضيع متفحم داخل مستشفى إسرائيلي، أُشيع أنها لطفل من ضحايا السابع من أكتوبر، الأمر الذي تسبب في شحذ الرأي العام ضد غزة، لكن بالكشف على الصورة ووفقًا لتغريدة الإعلامي الأمريكي جاكسون هنكل عبر منصة "X" فإن الصورة هي الأخرى من إنتاج برامج الذكاء الاصطناعي.

لم تقف الأمور عند هذا الحد، فعندما وقع القصف الذي استهدف المستشفى الأهلي "المعمداني" بغزة يوم 17 أكتوبر، خرج المتحدث الرسمي باسم الجيش الإسرائيلي مدعيا أن الصاروخ المتسبب في تلك المأساة الإنسانية ناجم عن عملية إطلاق فاشلة لأحد صواريخ "حركة الجهاد الإسلامي"، واستندت روايته إلى زَعْمَين، الأول كان مقاطع فيديو وصور التُقطت بواسطة الأقمار الصناعية، والثاني كان تسجيلا صوتيا يقال إنه لمكالمة هاتفية بين عضو سابق في حركة (حماس) وأحد سكان القطاع، وقد شككت العديد من المصادر في صحة الأمرين.
في واقعة أخرى، أجرت صحيفة "نيويورك تايمز" تحليلا موسعا لمقاطع الفيديو التي وردت في الرواية الإسرائيلية، مشيرة إلى وقوع انفجارين بالقرب من المستشفى المعمداني في غضون دقيقتين من القصف، وقد شككت في أن يكون الصاروخ الذي ظهر في الفيديو وبنى عليه المسؤولون الإسرائيليون روايتهم هو المتسبب في انفجار المستشفى.

أما في ما يخص المكالمة الهاتفية، فقد قوبل التسجيل الصوتي الذي أصدرته إسرائيل بالشك هو الآخر من قِبَل الخبراء، إذ أجرت القناة الرابعة البريطانية تحقيقا شكَّك في أن تكون اللهجة المستخدمة في التسجيل هي اللهجة المحلية لسكان القطاع، وهو ما يفتح الباب أمام احتمالية قوية لأن يكون التسجيل مفبركا، وهو أمر يتسق تماما مع ممارسات التزييف التي استخدمتها إسرائيل مرارا منذ بدء الحرب.

خداع إلكتروني.. تحويل أفيخاي أدرعي ونتنياهو إلى دعاة سلام تجربة عملية تُظهر مخاطر التزييف العميق
إن كانت الوسائل الإعلامية تستخدم الصورة كدليل على الحقيقة، فاليوم يمكننا تقديم الدليل على الكذب بالصورة والصوت أيضًا، وذلك بسبب برامج وتقنيات الذكاء الاصطناعي، ما يجعلنا نواجه مخاطر حروب رقمية عناصرها "الفيديو"، وليس تزييف الواقع فحسب.
وغزة نموذج حي لتأثير الأكاذيب والتضليل في الحروب الحديثة، ففي زمن يُصبح فيه العالم رقميًا بامتياز، تتغير قواعد اللعبة حتى في الحروب، فلم يعد الصراع محصورًا في ساحات المعارك التقليدية، بل امتد ليشمل الفضاء الرقمي، حيث تُشنّ حروب جديدة أسلحتها الصور المزيفة والفيديوهات المُضللة.
ويحاول تحقيق "العين الحادة" القيام بتجربة عملية عبارة عن إنتاج فيديوهات وصور مزيفة باستخدام تطبيقات الذكاء الاصطناعي، على شخصيتين سياسيتين بارزتين: المتحدث باسم الجيش الإسرائيلي أفيخاي أدرعي، ورئيس الوزراء الإسرائيلي بنيامين نتنياهو، يناديان فيها بالحرية لغزة ووقف قتل الأطفال هناك، لاختبار خطورة هذه التقنية ولتجسيد مدى سهولة إنتاج المحتوى المزيف وتأثيره على الرأي العام والسياسي والنفسي للمجتمعات المتأثرة.
في التجربة، استخدمتُ أدوات الذكاء الاصطناعي المتاحة للجمهور، مثل Adobe Firefly و Artflow للصور، وموقع play ht لاستنساخ الصوت، وموقع products aspose لفصل الصوت عن الفيديو، وتطبيق Capcut للمونتاج، وتطبيق Zeemo لاستخراج الصوت وترجمته على الشاشة.
فتم توليد فيديوهات وصور لأفيخاي أدرعي وبنيامين نتنياهو وهميين باستخدام Adobe Firefly، وهما موجودان في أماكن يستحيل وجودهما بها، كوجودهما بمساجد ومناطق أثرية في مصر، وعدّلتُ الصور باستخدام Artflow ليضفي عليها لمسة واقعية أكثر.
في الفيديو الذي نادى فيه القياديان الإسرائيليان بالحرية لفلسطين، دُمج الصوت من خلال موقع play ht لاستنساخ صوت أفيخاي أدرعي وبنيامين نتنياهو، مُنتجًا مقطعًا صوتيًا قصيرًا يُشبه صوتيهما، وفي خطوة لاحقة دمجتُ الصور المُزيفة مع الأصوات المُستنسخة باستخدام تطبيق Capcut، مُنتجًا مقطع فيديو قصيرًا يُظهر أفيخاي أدرعي وبنيامين نتنياهو وهما يتحدثان بكلمات لم ينطقا بها أبدًا" السلام والحرية لفلسطين".
واستخدم تطبيق Zeemo لاستخراج الصوت من الفيديو المُزوّر وترجمته على الشاشة، مُنتجًا نسخة مُترجمة تُسهل عملية الفهم على مُشاهدي الفيديو.
النتائج:
أظهرتْ التجربة قدرة التزييف العميق على إنتاج محتوى مُضلّل يُشبه الواقع، فمع بعض الأدوات البسيطة والوقت القصير، تمكنّا من إنشاء فيديو قصير يُظهر شخصيتين سياسيتين تتحدثان بكلمات لم ينطقا بها أبدًا.
المخاطر:
تُسلط التجربة الضوء على مخاطر التزييف العميق في المعارك السياسية والحروب، والتي تشمل التلاعب بالرأي العام، فيمكن استخدام التزييف العميق لتأليب الرأي العام ضد زعيم سياسي أو حزب معين، ما قد يُؤدّي إلى زعزعة الاستقرار السياسي.
نشر المعلومات المضللة:
يمكن استخدام التزييف العميق لنشر معلومات كاذبة تُؤثّر على نتائج الانتخابات أو تُشعل فتيل الفتن.
التشهير بالشخصيات:
يمكن استخدام التزييف العميق لتشويه سمعة شخصية سياسية، ما قد يُؤدّي إلى تدمير حياتها المهنية والشخصية.
توصيات التجربة:
يُمثل التزييف العميق تحديًا هائلًا للمجتمع، خاصة في المعارك السياسية والحروب، ويجب علينا العمل معًا للحد من مخاطر هذه التقنية.
ونحتاج إلى:
تطوير أدوات للكشف عن التزييف العميق:
يجب على شركات التكنولوجيا والمؤسسات البحثية العمل على تطوير أدوات متقدمة للكشف عن التزييف العميق وحماية المستخدمين من محتواه المُضلّل.
نشر الوعي حول مخاطر التزييف العميق:
يجب على المؤسسات التعليمية والـmedia outlets نشر الوعي حول مخاطر التزييف العميق وتعليم الناس كيفية تمييزه عن المحتوى الحقيقي.
سنّ قوانين تُجرّم استخدام التزييف العميق:
يجب على الحكومات سنّ قوانين تُجرّم استخدام التزييف العميق للأغراض الضارة.



